Loading...
机构名称:
¥ 7.0

通过例如人工神经网络获得的预测具有很高的准确性,但人类通常将模型视为黑匣子。关于决策的见解对人类来说大多是不透明的。特别是了解医疗保健或金融等高度敏感领域的决策至关重要。黑匣子背后的决策需要它对人类更加透明、负责和易于理解。本调查论文提供了基本定义,概述了可解释的监督机器学习 (SML) 的不同原理和方法。我们进行了一项最先进的调查,回顾了过去和最近的可解释 SML 方法,并根据引入的定义对它们进行分类。最后,我们通过解释性案例研究说明原则并讨论重要的未来方向。

arXiv:2011.07876v1 [cs.LG] 2020 年 11 月 16 日

arXiv:2011.07876v1 [cs.LG] 2020 年 11 月 16 日PDF文件第1页

arXiv:2011.07876v1 [cs.LG] 2020 年 11 月 16 日PDF文件第2页

arXiv:2011.07876v1 [cs.LG] 2020 年 11 月 16 日PDF文件第3页

arXiv:2011.07876v1 [cs.LG] 2020 年 11 月 16 日PDF文件第4页

arXiv:2011.07876v1 [cs.LG] 2020 年 11 月 16 日PDF文件第5页

相关文件推荐

2020 年
¥10.0